Musks KI macht einen Rückzieher: Grok entschuldigt sich für seine neonazistischen Inhalte und nennt sie „schreckliches Verhalten“.

Letzte Woche veröffentlichte Grok, der xAI-Chatbot hinter X (ehemals Twitter), eine Reihe neonazistischer Nachrichten, die Hitler lobten und zu einem neuen Holocaust aufriefen . Laut Elon Musk war der Chatbot zuvor modifiziert worden, um seine politische Korrektheit zu reduzieren, was zu einer Flut faschistischer und antisemitischer Propaganda führte. Am Montag, wenige Tage nach dem Rücktritt des CEO von X , entschuldigte sich die KI für das „schreckliche Verhalten “, das viele Nutzer erlebt hatten.
Laut einem Beitrag von Groks eigenem X-Account war der Grund für die digitalen Neonazi-Ausbrüche eine Aktualisierung eines Codepfads im Chatbot , der 16 Stunden lang aktiv war. Dieses Update „entwertete“ Groks eigenen Code und machte ihn „anfällig für bestimmte bestehende Beiträge von X-Nutzern“, darunter auch solche mit „extremistischen Ansichten“.
Grok erklärte, der Fehler sei durch das Entfernen der Optimierung und die Umstrukturierung des Quellcodes behoben worden. Der Beitrag auf dem offiziellen Account von Elon Musks Chatbot weist darauf hin, dass dieser Fehler unabhängig vom von Grok verwendeten Sprachmodell sei , und versucht damit, Zweifel an der Funktionsweise dieses KI-Tools auszuräumen.
Es bleibt abzuwarten, ob diese Änderung bei Grok auch die Art und Weise verändert hat, wie das neueste Modell, Grok 4, Inhalte von Elon Musks ehemaligem Twitter-Account nutzt, wenn es um Themen wie Einwanderung und den palästinensisch-israelischen Konflikt geht. Einige X-Nutzer haben darauf hingewiesen, dass der Chatbot bei Fragen zu letzterem Thema direkt auf Inhalte von Elon Musk springt , der ein ausgesprochener Unterstützer Israels ist.
Ich habe dieses Ergebnis, dass Grok sich fast ausschließlich darauf konzentriert, herauszufinden, was Elon denkt, um sich daran auszurichten, in einem neuen Grok 4-Chat ohne benutzerdefinierte Anweisungen reproduziert.https://t.co/NgeMpGWBOB https://t.co/MEcrtY3ltR pic.twitter.com/QTWzjtYuxR
– Jeremy Howard (@jeremyphoward) , 10. Juli 2025
Das heißt, die KI im Besitz von Elon Musk, der für Ende 2023 die mögliche Sperrung von Konten in seinem sozialen Netzwerk ankündigte, die pro-palästinensische Parolen veröffentlichten , greift auf die vom Magnaten selbst veröffentlichten Inhalte zurück, um ihre Antworten zu diesem Thema zu produzieren.
Der Tycoon, ein bekannter rechtsextremer Aktivist, behauptete sogar , Grok sei ein „Anti-Woke“-Chatbot, der aktiv nach der Wahrheit suche . Tatsächlich führt Groks Arbeit hinter den Kulissen zur Veröffentlichung neonazistischer Inhalte und rechtsextremer Verschwörungstheorien, wie zum Beispiel vom „weißen Völkermord“ in Südafrika . Diese in rechtsextremen Kreisen sehr beliebte Lüge nutzte Trump Ende Mai, um den südafrikanischen Präsidenten zu kritisieren.
All dies hielt xAI, das Musk gehört und Grok entwickelt, jedoch nicht davon ab, ehrgeizige kommerzielle Vereinbarungen zu unterzeichnen: Ende Mai einigte sich das Unternehmen mit Telegram auf die Integration von Grok in sein System . Dies gab Telegram-CEO Pavel Durov bekannt und erklärte, dass das Unternehmen 300 Millionen Dollar und 50 % der Einnahmen aus den über die Messaging-App abgeschlossenen xAI-Abonnements erhalten werde. Dieser Schritt erfolgte Monate, nachdem Telegram die Nutzung von Grok, dem Chatbot von xAI, für Premium-Telegram-Nutzer ermöglicht hatte.
Andererseits ist es bemerkenswert, dass auch andere US-Tech- Chefs mit reaktionären Bewegungen sympathisieren. Peter Thiel, Gründer von Palantir , finanzierte die politische Karriere des derzeitigen republikanischen Vizepräsidenten JD Vance und entschuldigte sich vor einigen Jahren für den sexistischen und rassistischen Inhalt eines Buches, das er in den 1990er Jahren geschrieben hatte. Palantir wiederum ist eines der Unternehmen, die durch die Unterzeichnung von Regierungsaufträgen am meisten von der Trump-Regierung profitieren.
eleconomista